Narzędzie AI pozwane po tym, jak chłopiec odebrał sobie życie; zrozum sprawę

Narzędzie AI jest pozwane po samobójstwie chłopca; dowiedz się więcej
Narzędzie AI jest pozwane po samobójstwie chłopca; dowiedz się więcej (Zdjęcie: Reprodukcja/c.ai)

14-letni chłopiec popełnił samobójstwo po rozmowie z chatbotem Character.AI. Teraz rodzina pozywa firmę.

Nastolatek Sewell Setzer III popełnił samobójstwo w 2023 roku po rozpoczęciu wymiany wiadomości z chatbotem Character.AI, inspirowanym postacią z Gry o Tron.

Teraz Megan Garcia, matka chłopca, wnosi pozew, ponieważ według niej firma nie zapewniła odpowiednich zabezpieczeń dla wrażliwych użytkowników przy wprowadzaniu produktu przeznaczonego do interakcji społecznych.

Character.AI złożyło wniosek o oddalenie sprawy, argumentując, że wypowiedzi chatbota są chronione przez Pierwszą Poprawkę, która gwarantuje wolność słowa obywatelom amerykańskim.

Jednak sędzia Anne Conway z Florydy (USA) stwierdziła, że firma nie udowodniła, jak język generowany przez chatbota kwalifikuje się jako mowa chroniona przez Konstytucję.

Noam Shazeer i Daniel De Freitas, założyciele Character.AI, zostali uwzględnieni w pozwie, podobnie jak Google, oskarżone o techniczne powiązanie ze startupem. Google zaprzeczyło bezpośredniemu zaangażowaniu w aplikację i zapowiedziało apelację od decyzji.

Sprawa może ustanowić bezprecedensowe precedensy dotyczące odpowiedzialności prawnej dużych firm technologicznych rozwijających systemy AI.

W zależności od wyroku, sądy mogą nałożyć surowsze ograniczenia na systemy oparte na języku, temat dyskusji obecny od początku korzystania z generatywnych zasobów AI.

Zdjęcie i wideo: Reprodukcja / c.ai. Ten materiał został stworzony przy pomocy AI i został zweryfikowany przez zespół redakcyjny.

Back to top